141 research outputs found

    On Martin's Pointed Tree Theorem

    Full text link
    We investigate the reverse mathematics strength of Martin's pointed tree theorem (MPT) and one of its variants, weak Martin's pointed tree theorem (wMPT)

    Probabilistic Computability and Choice

    Get PDF
    We study the computational power of randomized computations on infinite objects, such as real numbers. In particular, we introduce the concept of a Las Vegas computable multi-valued function, which is a function that can be computed on a probabilistic Turing machine that receives a random binary sequence as auxiliary input. The machine can take advantage of this random sequence, but it always has to produce a correct result or to stop the computation after finite time if the random advice is not successful. With positive probability the random advice has to be successful. We characterize the class of Las Vegas computable functions in the Weihrauch lattice with the help of probabilistic choice principles and Weak Weak K\H{o}nig's Lemma. Among other things we prove an Independent Choice Theorem that implies that Las Vegas computable functions are closed under composition. In a case study we show that Nash equilibria are Las Vegas computable, while zeros of continuous functions with sign changes cannot be computed on Las Vegas machines. However, we show that the latter problem admits randomized algorithms with weaker failure recognition mechanisms. The last mentioned results can be interpreted such that the Intermediate Value Theorem is reducible to the jump of Weak Weak K\H{o}nig's Lemma, but not to Weak Weak K\H{o}nig's Lemma itself. These examples also demonstrate that Las Vegas computable functions form a proper superclass of the class of computable functions and a proper subclass of the class of non-deterministically computable functions. We also study the impact of specific lower bounds on the success probabilities, which leads to a strict hierarchy of classes. In particular, the classical technique of probability amplification fails for computations on infinite objects. We also investigate the dependency on the underlying probability space.Comment: Information and Computation (accepted for publication

    Kolmogorov complexity

    Get PDF
    In dieser Dissertation werden neue Ergebnisse über Kolmogorovkomplexität diskutiert. Ihr erster Teil konzentriert sich auf das Studium von Kolmogorovkomplexität ohne Zeitschranken. Hier beschäftigen wir uns mit dem Konzept nicht-monotoner Zufälligkeit, d.h. Zufälligkeit, die von Martingalen charakterisiert wird, die in nicht-monotoner Reihenfolge wetten dürfen. Wir werden in diesem Zusammenhang eine Reihe von Zufälligkeitsklassen einführen, und diese dann von einander separieren. Wir präsentieren auß erdem einen systematischen überblick über verschiedene Traceability-Begriffe und charakterisieren diese durch (Auto-)Komplexitätsbegriffe. Traceabilities sind eine Gruppe von Begriffen, die ausdrücken, dass eine Menge beinahe berechenbar ist. Der zweite Teil dieses Dokuments beschäftigt sich mit dem Thema zeitbeschränkter Kolmogorovkomplexität. Zunächst untersuchen wir den Unterschied zwischen zwei Arten, ein Wort zu beschreiben: Die Komplexität, es genau genug zu beschreiben, damit es von anderen Wörter unterschieden werden kann; sowie die Komplexität, es genau genug zu beschreiben, damit das Wort aus der Beschreibung tatsächlich generiert werden kann. Diese Unterscheidung ist im Falle zeitunbeschränkter Kolmogorovkomplexität nicht von Bedeutung; sobald wir jedoch Zeitschranken einführen, wird sie essentiell. Als nächstes führen wir den Begriff der Tiefe ein und beweisen ein ihn betreffendes Dichotomieresultat, das in seiner Struktur an Kummers bekanntes Gap-Theorem erinnert. Zu guter Letzt betrachten wir den wichtigen Begriff der Solovayfunktionen. Hierbei handelt es sich um berechenbare obere Schranken der Kolmogorovkomplexität, die unendlich oft scharf sind. Wir benutzen sie, um in einem gewissen Zusammenhang Martin-Löf-Zufälligkeit zu charakterisieren, und um eine Charakterisierung von Jump-Traceability anzugeben

    Psychische Beanspruchung und Gesundheit am Arbeitsplatz : Gefährdungs- und Risikobewertung

    Full text link
    Psychische Belastungen und Beanspruchungen am Arbeitsplatz werden auf internationaler, europäischer und nationaler Ebene von den Sozialpartnern übereinstimmend als bedeutendes und zunehmendes Problem eingestuft und wirksame Präventionsmaßnahmen gefordert (vgl. „Framework agreement on work-related stress“, UNICE/UEAPME, CEEP und ETUC, 2004). Die wirtschaftliche Bedeutung des Problems ist unbestritten; die Kosten der mittelfristigen und langfristigen Folgen belaufen sich auf 10 – 14 Mrd. Euro/Jahr (BAuA, 2002-3). Dabei sind die gesicherten Effekte psychosozialer Faktoren auf körperliche Erkrankungen wie chronische Rückenschmerzen noch nicht berücksichtigt. Eine verbesserte Prävention von gesundheitlichen Stressfolgen wird deshalb auch innerhalb der Berufsgenossenschaften intensiv diskutiert, aber es werden erst vereinzelt neue Wege zu geeigneten evidenzbasierten Analyse- und Interventionsverfahren beschritten. Für Diagnose und Intervention sind vielerlei Angebote auf dem Markt; leider ist der Markt für solche Verfahren völlig unübersichtlich und vieles ist für die präventive Praxis nicht brauchbar. Die Mehrzahl der angebotenen Methoden (vgl. BAuA-Toolbox, Schriftenreihe der MaschBG/BAuA) besteht aus Fragebogenverfahren, die Fehlbelastungen an Hand subjektiv empfundener negativer Beanspruchungsfolgen definieren; diese vermögen aber keine überzeugende Vorhersage relevanter Risiken zu leisten, die einer wirksamen Prävention zugänglich sind. Es gibt somit kein anerkanntes diagnostische Instrumentarium, welches feststellen kann, ob "psychische Belastungen" und "Fehlbeanspruchungen" zu klar definierten Gesundheitsstörungen führen (Messung der stressbedingten Risikoerhöhung) und dessen Messgenauigkeit und Vorhersagewert direkt an klar definierten Erkrankungen geprüft wurde. In der Praxis geht es aber gerade darum, bereits gefährdete Personen an bestimmten Arbeitsplätzen rechtzeitig ausfindig zu machen und mit gezieltem Mitteleinsatz zu intervenieren. Für die BGen ist es daher vorrangig, eine am realen Erkrankungsrisiko orientierte, entscheidungsfähige Stressdiagnostik aufzubauen, um dem Ziel eine auf wissenschaftlichen Erkenntnissen und Belegen beruhenden (evidenzbasierten) Stressprävention näher zu kommen. Dies ist allerdings nur mit den geeigneten Methoden und Forschungsdesigns zu bewältigen. Man benötigt für die Bestimmung des Vorhersagewerts einer risikoorientierten Stressdiagnostik Längsschnittstudien, die Fehlbeanspruchungen mit der Entwicklung von Gesundheitsgefahren im Zeitverlauf zuverlässig verknüpfen können. Ein branchenübergreifendes und gleichzeitig spezifisches Instrumentarium zur risikobezogenen Diagnostik psychischer Beanspruchung, das sowohl zur Gefährdungsbestimmung als auch zur Indikation und Wirksamkeitsprüfung von Präventions- und Interventionsmaßnahmen herangezogen werden kann, behebt damit zwei aktuelle Hauptdefizite: Die Berufsgenossenschaften werden in der Lage sein, eine am realen Erkrankungsrisiko orientierte Stressdiagnostik aufzubauen, insbesondere praxistaugliche Screening-Instrumente bereitzustellen, deren Vorhersagewert für umrissene Berufsgruppen nachgewiesen ist. Somit wird auch die Wirksamkeit von Interventionsmaßnahen besser zu beurteilen sein. Der klassische Präventionsauftrag der BGen wird dadurch erfüllt und die Wirksamkeit seines Maßnahmenkatalogs durch wissenschaftliche Belege untermauert. Langfristig betrachtet führt eine risikobezogene Diagnostik zu einer Kostenreduktion. Mittels eines mehrstufigen Verfahrens wird auf jeder Diagnostikstufe das jeweilige Risiko für Gesundheitsgefahren ermittelbar sein, so dass die meisten Mitarbeiter nur mit einem Screening-Instrument, das wenig Aufwand bedarf, untersucht werden. Das stufenweise Vorgehen filtert auf jeder Stufe gefährdete Mitarbeiter sukzessive heraus, so dass nur ein zunehmend geringerer Prozentsatz einer genaueren Untersuchung auf der nächst höheren Stufe zugeführt wird

    Las Vegas computability and algorithmic randomness

    Get PDF
    In this article we try to formalize the question “What can be computed with access to randomness?” We propose the very fine-grained Weihrauch lattice as an approach to differentiate between different types of computation with access to randomness. In particular, we show that a natural concept of Las Vegas computability on infinite objects is more powerful than mere oracle access to a Martin-Löf random object. As a concrete problem that is Las Vegas computable but not computable with access to a Martin-Löf random oracle we study the problem of finding Nash equilibria

    A dynamic neural model of localization of brief successive stimuli in saltation

    Get PDF
    Somatosensory saltation is an illusion robustly generated using short tactile stimuli [1,2]. There is a perceived displacement of a first stimulus if followed by a subsequent nearby stimulus with a short stimulus onset asynchrony (SOA). Experimental reports suggest that this illusion results from spatiotemporal integration in early processing stages, but the exact neural mechanism is unknown. The neuronal mechanism involved is probably quite generic as similar phenomena occur in other modalities, audition for example [3]
    corecore